learning rate(学习率):指在学习或训练过程中,每一步更新的“步子有多大”。在机器学习/深度学习中,它是优化算法更新参数时使用的关键超参数;过大可能导致训练不稳定甚至发散,过小则学习缓慢、收敛很慢。(在更一般的语境里也可指“学习速度/学习进度”,但最常见的是算法中的“学习率”。)
/ˈlɝːnɪŋ reɪt/
The learning rate is too high.
学习率太高了。
If you reduce the learning rate after the loss plateaus, the model may converge more smoothly and achieve better generalization.
如果在损失停止明显下降后降低学习率,模型可能会更平稳地收敛,并获得更好的泛化表现。
由 learning(学习)+ rate(速率/比率)组合而成,字面意思是“学习的速度/速率”。在现代机器学习语境中,它被固定用来表示参数更新的步长大小,常见于梯度下降及其变体(如 SGD、Adam 等)的设置中。